大模型时代的对话系统:从NLM到PLM,再到LLM
【社区开放麦】开播啦!!!技术下饭番追起来,每周一个新芝士。欢迎广大社区同学加入直播间参与讨论的同时,也非常鼓励社区同学拿起话筒登上舞台,社区知识开放麦等你来玩~
本期精彩
每一次语言模型的更新,都代表着一次计算架构和学习范式的迭代,给对话系统的发展与演变带来了深刻的影响。从 NLM(e.g., LSTM, GRU)到 PLM(e.g., BERT, GPT),再到如今几乎统治一切自然语言处理任务的 LLM,对话系统的研究都经历了哪些演变?未来的发展趋势如何?成为热议的话题。
本次分享将以语言模型与对话系统的相互演变与进化为切入点,希望通过一个新的视角,试图解答基于大模型的对话系统从哪里来,又到何处去的问题。
分享内容
对话系统的分类与发展
对话系统随着语言模型的变化的演变
基于大模型的对话系统有何不同?
基于大模型的对话系统的内部能力—Cue-CoT
基于大模型的对话系统的外部能力—SAFARI
从基于大模型的对话系统到智能体
分享时间
北京时间
2023 年 12 月 21 日(周四)
20: 00 - 20: 40(分享)
20: 40 - 21: 00(Q&A)
分享嘉宾
王鸿儒
香港中文大学博士生,导师为 ACL Fellow 黄锦辉教授,研究方向主要包括对话系统,大语言模型,RLAIF以及 Language Agents,在国际顶级会议如 ICASSP, COLING,EMNLP,ACL 发表 10 余篇相关论文,代表工作有 CueCoT,SAFARI,TPE 等,个人主页:https://rulegreen.github.io/
内容详情
对话系统的进化,离不开底层语言模型的进化,每一次语言模型的更新,都代表一次计算架构和学习范式的迭代,给对话系统的发展与演变带来了深刻的影响。从 NLM(e.g., LSTM, GRU)到 PLM(e.g., BERT, GPT),再到如今几乎统治一切自然语言处理任务的 LLM,每一次语言模型的进化都对对话系统的研究方向和研究重心产生了一定的影响。我们按照这几次重大的语言模型的突破(Seq2seq, PLM and LLM)将整个对话系统的演变分为四个不同的阶段:
早期阶段(Early Stage — 2015年之前):早期的对话系统几乎全是任务型对话(Task-oriented Dialogue System),以完成某一个具体的任务比如订机票,订餐厅等为最终目标,一开始的任务型对话系统单一任务,单一领域,单一语言等,所涉及到技术主要是基于统计的机器学习,或者规则类的对话系统,以 Eliza,GUS, ALICE 为代表。
独立发展阶段(2015-2019, NLM):一方面,2015年 Seq2seq 的出现,让开放域对话系统 (Open-domain Dialogue System)进入到了大家的视野,开放域对话不以完成某一个具体的任务为目标,主打一个随心所欲,想聊啥聊啥,天然的适配 seq2seq 这样的一套框架,很多研究人员开始使用 seq2seq 去解决开放域对话的问题;另一方面,随着 LSTM, GRU 等 RNN 的提出,任务型对话也开始使用相应的 NLM 去建模上下文从而在不同的子任务上取得更好的效果。
融合阶段(2019-2022, PLM):BERT, GPT 等 Pre-trained Language Model (PLM)的出现带来了新一轮的范式 — pre-train-then-finetune。受益于大规模的预训练,PLM 的参数自带很多有用的信息比如世界知识,常识知识等,这些知识作为底层能力,可以被应用在大量的任务和领域上,从而给对话系统带来了任务,领域,语言等多个不同层面的融合。需要注意的是融合趋势仍在继续,并未停止,也许永远不会停止。
基于大模型的对话系统(2022-Now, LLM):大模型的出现就是融合,进化的产物。随着数据越来越多,模型就变得越来越大,能力就越来越好,这就是我们熟悉的 scaling law。当我们把大模型对话系统在现实场景下进行应用的时候,新的问题和挑战也随之出现。参考《大模型对话系统的内功与外功》。
我们将简单介绍对话系统在前三个阶段经历的数据,任务,甚至模型层面的融合,然后详细介绍在如今大模型时代下对话系统的发展和现有的问题。
紧接着,将进一步向大家介绍大模型自身强大的推理能力(Internal Reasoning),以及大模型如何与外部环境进行交互 (External Acting),具体内容如下:
内部推理 Internal Reasoning (Prompts):通过 prompting 的方式去让大模型推理出来对话上下文中蕴含的各种信息,包括但不限于:对话状态(dialogue state tracking),用户状态(用户情绪,心理,性格特征等),和各种语义信息(natural language understanding)等等。下面的表格中统计了现在通过prompting的方式去解决对话系统里面各个不同任务的最新进展,比如说利用 LLM 去做 TOD 的 IT-LLM 和 SGP-TOD 等等,还有相应的情感对话,心理对话。
外部交互 External Acting (Interactions):对话系统不仅要考虑到在对话上下文中用户的意图和需求,还需要和外部的环境进行交互,比如多个不同的知识源,不同模态的信息等等,来提供及时,准确,可信的回复。
内部推理加外部交互 (Reasoning + Acting): 这时候的对话系统其实更加的拟人化了,或者说更加的类似于language agent的概念,不仅要及时的推理对话上下文中蕴含的信息,还要和外部环境进行一系列的交互,从而获取更多的信息,最终生成更加完美的回复。我们在综述中都列举了相关的工作,欢迎大家阅读,补充。
按照过去的演变规律,我们认为融合仍然是一个不变的趋势,不同粒度的融合仍会加强,甚至可能跨越任务,数据和模型,上升到自然语言处理最顶层的语言这一层次(多语言),突破单一模态的限制(多模态),这些融合也正在发生。此外,对话系统的安全和底层基座大模型的幻想问题也仍然是需要解决的长期目标。随着技术的不断进步,我们期待对话系统能够成为未来AGI的发展中扮演更加重要的角色。
想了解更多精彩内容,记得订阅直播,今晚八点开放麦不见不散哦~
相关资料
A Survey of the Evolution of Language Model-Based Dialogue Systems
Cue-CoT: Chain-of-thought Prompting for Responding to In-depth Dialogue Questions with LLMs
Large Language Models as Source Planner for Personalized Knowledge-grounded Dialogues
TPE: Towards Better Compositional Reasoning over Conceptual Tools with Multi-persona Collaboration
相关论文
https://arxiv.org/abs/2311.16789
https://arxiv.org/abs/2305.11792
https://arxiv.org/abs/2310.08840
https://arxiv.org/abs/2309.16090
相关链接
https://github.com/ruleGreen/Survey-Evolution-DS
https://github.com/ruleGreen/Cue-CoT
https://github.com/ruleGreen/SAFARI/
https://arxiv.org/abs/2309.16090
交流群
同时为了方便大家交流沟通,我们建立了大模型相关的交流群,本期分享的大佬也在群里哦,可与大佬进行 1v1 沟通 ,扫码即可入群~
往期回顾
上期开放麦,我们邀请到上海人工智能实验室青年研究员钟志航带来《解析时间超分辨率中的歧义问题》分享。
感兴趣的同学,可以通过直播回放学习一下哦~
2023-12-20
2023-12-15